Text-to-text generation models have increasingly become the go-to solution for a wide variety of sequence labeling tasks (e.g., entity extraction and dialog slot filling). While most research has focused on the labeling accuracy, a key aspect -- of vital practical importance -- has slipped through the cracks: understanding model confidence. More specifically, we lack a principled understanding of how to reliably gauge the confidence of a model in its predictions for each labeled span. This paper aims to provide some empirical insights on estimating model confidence for generative sequence labeling. Most notably, we find that simply using the decoder's output probabilities is not the best in realizing well-calibrated confidence estimates. As verified over six public datasets of different tasks, we show that our proposed approach -- which leverages statistics from top-$k$ predictions by a beam search -- significantly reduces calibration errors of the predictions of a generative sequence labeling model.
translated by 谷歌翻译
全球一百多个国家的主食是大米(Oryza sativa)。大米的种植对于全球经济增长至关重要。但是,农业产业面临的主要问题是水稻疾病。农作物的质量和数量下降了,这是主要原因。由于任何国家的农民对水稻疾病都没有太多了解,因此他们无法正确诊断稻叶疾病。这就是为什么他们不能适当照顾米叶的原因。结果,生产正在减少。从文献调查中,Yolov5表现出更好的结果与其他深度学习方法相比。由于对象检测技术的不断发展,Yolo家族算法具有非常高的精度和更好的速度,已在各种场景识别任务中使用,以构建稻叶疾病监测系统。我们已经注释了1500个收集的数据集,并提出了基于Yolov5深学习的水稻疾病分类和检测方法。然后,我们训练并评估了Yolov5模型。模拟结果显示了本文提出的增强Yolov5网络的对象检测结果的改进。所需的识别精度,召回,MAP值和F1得分的水平分别为90 \%,67 \%,76 \%和81 \%\%被视为性能指标。
translated by 谷歌翻译
播客本质上是对话性的,说话者的变化很频繁 - 需要说话者诊断以了解内容。我们在不依赖语言特定组件的情况下提出了一种无监督的技术诊断技术。该算法是重叠的,不需要有关说话者数量的信息。我们的方法显示,针对播客数据的Google Cloud Platform解决方案,纯度得分(F-评分为34%)的纯度得分提高了79%。
translated by 谷歌翻译
近年来,深度学习(DL)方法的流行程度急剧增加,并且在生物医学科学中的监督学习问题中的应用显着增长。但是,现代生物医学数据集中缺失数据的较高流行率和复杂性对DL方法提出了重大挑战。在这里,我们在深入学习的广义线性模型的背景下,对缺失数据进行了正式处理,这是一种监督的DL架构,用于回归和分类问题。我们提出了一种新的体系结构,即\ textit {dlglm},这是第一个能够在训练时在输入功能和响应中灵活地说明忽略和不可忽视的缺失模式之一。我们通过统计模拟证明,我们的方法在没有随机(MNAR)缺失的情况下胜过现有的监督学习任务方法。我们从UCI机器学习存储库中对银行营销数据集进行了案例研究,在该数据集中我们预测客户是否基于电话调查数据订阅了产品。
translated by 谷歌翻译
尽管网络体系结构性能取得了重大进展,但对抗性攻击的敏感性使得深度学习具有挑战性地在安全至关重要的应用中实施。本文提出了一种以数据为中心解决此问题的方法。一种具有不同亮度值的非局部降解方法已用于从改良的国家标准技术数据库(MNIST)和加拿大高级研究所(CIFAR-10)数据集中生成对抗性示例。在扰动下,该方法在MNIST数据集中提供了多达9.3%的绝对精度提高,而CIFAR-10数据集则提供了13%。使用具有较高亮度值的转换图像训练会增加分类器的鲁棒性。我们已经证明,转移学习对于对抗机器学习是不利的。结果表明,简单的对抗性示例可以提高弹性,并使深度学习易于在各种应用中应用。
translated by 谷歌翻译
转移学习使我们能够利用从一项任务中获得的知识来协助解决另一个或相关任务。在现代计算机视觉研究中,问题是哪个架构对给定的数据集更好地表现更好。在本文中,我们将14种预先训练的Imagenet模型的性能进行比较在组织病理学癌症检测数据集上,其中每个模型都被配置为天真的模型,特征提取器模型或微调模型。DENSENET161已被证明具有高精度,而RESET101具有高召回。适用于后续检查成本高的高精度模型,而低精度,但在后续检查成本低时,可以使用高召回/灵敏度模型。结果还表明,转移学习有助于更快地收敛模型。
translated by 谷歌翻译
近年来,深度学习(DL)方法的流行程度大大增加。尽管在图像数据的分类和操纵中证明了其最初的成功,但DL方法应用于生物医学科学中的问题的应用已显着增长。但是,生物医学数据集中缺失数据的较高流行率和复杂性对DL方法提出了重大挑战。在这里,我们在变化自动编码器(VAE)的背景下提供了对缺失数据的正式处理,这是一种普遍用于缩小尺寸,插补和学习复杂数据的潜在表示的流行无监督的DL体系结构。我们提出了一种新的VAE架构Nimiwae,这是第一个在训练时在输入功能中灵活解释可忽视和不可忽视的缺失模式之一。训练后,可以从缺失数据的后验分布中得出样本,可用于多个插补,从而促进高维不完整数据集的下游分析。我们通过统计模拟证明,我们的方法优于无监督的学习任务和插定精度的现有方法。我们以与12,000名ICU患者有关的EHR数据集的案例研究结束,该数据集具有大量诊断测量和临床结果,其中仅观察到许多特征。
translated by 谷歌翻译
口头和非口头线索对伟大公开发言的作用是多十年来探索的主题。我们在渠道或通信方式中识别出现在现状理论的共性,“品种或异质性”(例如,借助故事,科学事实,情绪联系,面部表情等),这对于有效地传达信息至关重要。我们使用该观察来形式化新颖的异质性度量下摆下摆,这些度量下降,这量化了口头和非言语域(转录物和面部手势)的谈话的质量。我们使用TED会谈作为公开演讲的输入存储库,因为它包括除了广泛的外展之外的不同社区的发言者。我们表明,下摆之间存在有趣的关系,以及观众对发言人的TED谈判的评级。它强调,隐生和成功地代表了基于“品种或异质性”谈话的质量。此外,我们还发现HIM成功地捕获了与种族和性别的评级中的普遍存在偏见,我们呼叫敏感属性(因为基于这些可能导致不公平结果的预测)。我们将下降度量纳入神经网络的损失功能,以减少与种族和性别的评级预测的不公平。我们的研究结果表明,改进的损耗函数在不显着影响神经网络的预测准确性的情况下提高了预测的公平性。我们的工作在口头和非言语域中的公共演讲中的一个新的公共演讲与神经网络的计算能力设计为扬声器设计公平预测系统。
translated by 谷歌翻译